首页> 外文OA文献 >Exploring Different Dimensions of Attention for Uncertainty Detection
【2h】

Exploring Different Dimensions of Attention for Uncertainty Detection

机译:探索不确定性检测中注意力的不同维度

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Neural networks with attention have proven effective for many naturallanguage processing tasks. In this paper, we develop attention mechanisms foruncertainty detection. In particular, we generalize standardly used attentionmechanisms by introducing external attention and sequence-preserving attention.These novel architectures differ from standard approaches in that they useexternal resources to compute attention weights and preserve sequenceinformation. We compare them to other configurations along different dimensionsof attention. Our novel architectures set the new state of the art on aWikipedia benchmark dataset and perform similar to the state-of-the-art modelon a biomedical benchmark which uses a large set of linguistic features.
机译:事实证明,关注神经网络对于许多自然语言处理任务都是有效的。在本文中,我们开发了不确定性检测的注意机制。特别是,我们通过引入外部注意力和保持序列的注意力来概括标准使用的注意力机制。这些新颖的体系结构与标准方法的不同之处在于它们使用外部资源来计算注意力权重并保留序列信息。我们将它们与关注度不同的其他配置进行比较。我们新颖的架构在Wikipedia基准数据集上树立了最新的技术水平,并且与使用大量语言功能的生物医学基准上的最新模型类似,具有类似的功能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号